1
La evolución de la formulación de instrucciones: desde instrucciones básicas hasta razonamiento estructurado
AI012Lesson 3
00:00

La jerarquía de la formulación de instrucciones: desde las instrucciones hasta el razonamiento

La formulación de instrucciones ha evolucionado desde entradas simples basadas en comandos hasta arquitecturas de razonamiento que guían el camino interno de procesamiento del modelo.

Conceptos fundamentales

  • Formulación de instrucciones sin ejemplo (Zero-shot): Proporcionar una descripción de la tarea sin ejemplos (por ejemplo, "Traduce esto al francés").
  • Formulación de instrucciones con pocos ejemplos (Few-shot): Utilizar "demonstraciones" (pares entrada-salida) para definir el espacio de etiquetas y el formato deseado.
  • Cadena de pensamiento (CoT): Una técnica de formulación de instrucciones que anima al modelo a producir pasos intermedios de razonamiento.
  • Propiedades emergentes: El razonamiento complejo no está programado explícitamente, sino que "emerge" en modelos que generalmente superan los 10.000 millones de parámetros.

El cambio en el razonamiento

  1. Seguimiento de instrucciones: Mapeo directo de entrada a salida.
  2. Aprendizaje en contexto: Aprender patrones a partir de ejemplos proporcionados (poco ejemplo).
  3. Descomposición lógica: Dividir problemas en pasos secuenciales (CoT).
  4. Supervisión del proceso: Priorizar la precisión de los pasos de "pensamiento" sobre la respuesta final (como se observa en OpenAI o1).
Punto clave
El rendimiento del modelo en escenarios de pocos ejemplos es muy sensible a la distribución de las etiquetas y a la relevancia de las demostraciones, más que simplemente a la cantidad de ejemplos.
prompting_strategies.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>
Question 1
Which method relies on providing "demonstrations" to guide the model?
Zero-shot prompting
Few-shot prompting
Chain-of-Thought
Fine-tuning
Question 2
True or False: Chain-of-Thought reasoning is a capability found in almost all AI models regardless of size.
True
False
Challenge: Optimizing Logic Puzzles
Scenario: Optimize a prompt for a model that is struggling with a logic puzzle.
You are using an LLM to solve the following puzzle: "A bat and a ball cost $1.10 in total. The bat costs $1.00 more than the ball. How much does the ball cost?"

Currently, you are passing the prompt exactly as written above, and the model incorrectly answers "$0.10".
Task 1
Identify if the current prompt is Zero-shot or Few-shot.
Solution:
The current prompt is Zero-shot because it provides the task description without any prior examples or demonstrations of similar solved puzzles.
Task 2
Inject the Zero-shot CoT trigger phrase to improve reasoning accuracy. Rewrite the prompt.
Solution:
"A bat and a ball cost $1.10 in total. The bat costs $1.00 more than the ball. How much does the ball cost? Let's think step by step:"